Какво са халюцинациите на ИИ? Това е феномен, при който големите

...
Какво са халюцинациите на ИИ? Това е феномен, при който големите
Коментари Харесай

Изкуственият интелект с необичайна човешка черта – има халюцинации

Какво са халюцинациите на ИИ?

 

Това е феномен, при който огромните езикови модели, измежду които чатботове с генеративен ИИ, възприема модели и обекти, които не съществуват или са незначителни за човешките наблюдаващи, и ги употребява за основаването на безсмислени резултати.

 

Ако консуматор на генеративен ИИ зададе въпрос, той чака верен отговор. Въпреки това от време на време програмните логаритми връщат резултати, които не се основават на данните за образование, декодирани са погрешно и не следват никакъв различим модел. С други думи – ИИ „ халюцинира “ отговора.

Терминът може да наподобява абсурден, като се има поради, че халюцинациите нормално се свързват с човешки или скотски мозъци, а не с машини. Но от метафорична позиция халюцинациите тъкмо разказват тези резултати, изключително при положение на различаване на облици и модели, където резултатите могат да бъдат в действителност сюрреалистични на външен тип.

 

AI халюцинациите са сходни на метода, по който хората от време на време виждат фигури в облаците или лица на луната. В случая на AI тези неправилни тълкувания пораждат заради разнообразни фактори, в това число пренастройване, отклоняване или неправилност на данните за образование и висока трудност на модела.

 

Примери за халюцинации на ИИ

 

Когато ИИ стартира да си измисля, моделът го прави с изключителна убеденост, че е прав. Това е най-опасното при този развой – доста консуматори могат да бъдат заблудени.

 

Подобни халюцинации нееднократно са влизали в новинарските заглавия на Запад. Когато Гугъл показа за първи път демо версията на Bard – ИИ рекламиран като директен съперник на ChatGPT, чатботът стана прочут доста бързо с неверен отговор за телескопа „ Джеймс Уеб “.

При различен случай юрист от Ню Йорк попадна под светлините на прожекторите, откакто употребява ChatGPT за изследване. Чатботът връща шест безусловно измислени правни случая.

 

Новинарското издание CNET също беше насила да разгласява корекции поради материал, генериран с ИИ, който дал извънредно неправилна финансова информация на тематика „ комплицирани лихви “.

 

Има и позитивни страни

 

Халюцинациите на ИИ „ развръзват “ ръцете на изобретателните специалности. При изкуството и дизайна, грешките на системите може да основат нови артистични форми и стилове.

 

В гейминг промишлеността халюцинациите също са от изгода, изключително при VR устройствата. Там халюцинациите могат да прибавят детайл на изненада, непредвидимост и нови чувства.

 

При визуализацията и интерпретацията на огромни размери от данни също са потребни, тъй като могат да предложат непредвидим метод за разчитане на сложна информация.

 

Предотвратяване на халюцинациите

 

Според специалисти от IBM има няколко метода, с които може да се понижи вероятността от халюцинации. Най-важната е потреблението на висококачествени данни за трениране на ИИ. Моделите с генеративен ИИ разчитат на база данни, с цел да извършват дилемите си.

 

Други значими моменти са дефинирането на задачите на ИИ моделите, както и потреблението на темплейти за данни. По този метод опцията за илюзия става още по-малка.

 

Експертите поучават също да има непрекъснато наблюдаване от страна на хората.
Източник: frognews.bg

СПОДЕЛИ СТАТИЯТА


Промоции

КОМЕНТАРИ
НАПИШИ КОМЕНТАР